Wissen
Künstliche Intelligenz

KI verfälscht Online-Forschung mit Fake-Umfragen

Künstliche Intelligenz (Symbolbild)
Wenn KI-Systeme statt Menschen Fragebögen ausfüllen ... Bild: Shutterstock

KI verfälscht Online-Forschung mit Fake-Umfragen

Künstliche Intelligenz ist zunehmend in der Lage, menschliches Verhalten zu simulieren – etwa Online-Fragebögen wie ein Mensch auszufüllen. Dies gefährdet die Zuverlässigkeit von umfragebasierter Forschung.
24.02.2026, 19:3924.02.2026, 20:41

Online-Umfragen sind seit Jahren ein Eckpfeiler der modernen sozialwissenschaftlichen Forschung. Sie werden genutzt, um das Verhalten und die Überzeugungen grosser Gruppen von Menschen zu erfassen. Sie spielen daher eine wichtige Rolle bei Meinungsumfragen und der Politikgestaltung. Plattformen wie Amazon Mechanical Turk, Prolific und Lucid ermöglichen es Forschern seit Langem, Daten schnell und kostengünstig zu sammeln.

Laut einer in Nature erschienenen Studie eines Forschungsteams der IMT School for Advanced Studies Lucca und der University of Cambridge sind genau diese Systeme nun anfällig für weitreichende Manipulationen durch künstliche Intelligenz. Frühere Studien hatten bereits ergeben, dass zwischen 30 und 90 Prozent der Antworten bei solchen sozialwissenschaftlichen Umfragen nicht authentisch oder sogar betrügerisch sein könnten. Selbst der niedrigere Prozentsatz liegt über dem, was mit statistischen Korrekturen aufgefangen werden kann.

«Alle Daten potenziell verfälscht»

Co-Studienautor Folco Panizza erklärt in einer Mitteilung der IMT School, dass es sich um ein grundlegendes Problem handle, da alle Daten potenziell verfälscht seien und selbst ein geringfügiges Mass an Verfälschung statistische Analysen untergraben könne – insbesondere wenn geringe Auswirkungen gemessen werden sollen.

«Das Problem ist, dass die bisher verwendeten Tools zur Unterscheidung zwischen Menschen und Nicht-Menschen nicht mehr wirksam sind. Wir können nicht sagen, ob der Befragte eine Person ist oder nicht.»
Folco Panizza

Digitales Katz-und-Maus-Spiel

Seit Jahren versuchen Wissenschaftler, die automatisierte Teilnahme an Online-Umfragen zu verhindern, etwa durch Kontrollfragen oder technische Barrieren wie das bekannte Captcha (completely automated public Turing test to tell computers and humans apart, deutsch: vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen).

Leider gelingt es modernen KI-Systemen immer besser, auch solche Kontrollen zu umgehen. Daraus hat sich ein digitales Katz-und-Maus-Spiel entwickelt: Forscher erfinden eine neue Erkennungsmethode, die KI lernt daraus und passt sich an. Das Problem verschlimmert sich dadurch tendenziell, denn die KI-Systeme lernen aus den Versuchen, sie zu entlarven.

Menschliche Denkfehler nutzen

Hilfreich könnte da der Ansatz sein, die Logik der Bot-Erkennung umzukehren: Anstatt nach Schwächen der KI zu suchen, könnten Forscher Aufgaben entwickeln, die sich die Grenzen des menschlichen Denkens zunutze machen. Menschen machen nämlich systematische Denkfehler, argumentieren nicht immer konsistent und lassen sich vom Kontext beeinflussen. Sprachmodelle (LLMs) sind auf Korrektheit und Kohärenz ausgerichtet, während menschliche Antworten oft chaotisch und mitunter sogar widersprüchlich sind. Es könnte daher schwieriger sein, ein KI-System dazu zu bringen, absichtlich auf menschliche Art zu versagen, als dass es richtige Antworten gibt.

«Maschinen sind sehr gut darin, das Verhalten von Menschen nachzuahmen, aber sie sind viel weniger gut darin, die Fehler nachzuahmen, die Menschen machen.»
Folco Panizza

Paradaten auswerten

Daneben könnten auch die sogenannten Paradaten herangezogen werden, um Mensch und Maschine zu unterscheiden. Dies sind Daten über den Ausfüllprozess selbst, zum Beispiel wie viel Zeit jemand für eine Frage benötigt, wie schnell er tippt und wie er kopiert und einfügt. Ein Computer, der schliesslich nicht zwei Minuten lang über eine Frage nachdenken würde, liesse sich dadurch erkennen.

Wiederum ein anderer Ansatz könnte darin bestehen, den Einsendungen Wahrscheinlichkeitswerte zuzuweisen. Dabei wird jede Antwort mit bekannten Mustern in menschlichen und von KI generierten Antworten verglichen. Auf dieser Grundlage erhält eine Einsendung eine Punktzahl, die angibt, wie wahrscheinlich es ist, dass sie von einer echten Person stammt. Anstatt Antworten einfach zu löschen, können Forscher dann mit gewichteten Daten arbeiten.

Nicht nur die Sozialwissenschaften sind von den Auswirkungen von Computersystemen, die Umfragen beeinflussen, betroffen. Online-Umfragen werden auch verwendet, um die öffentliche Meinung zu messen und politische Entscheidungen zu rechtfertigen. Wenn diese Daten in erheblichem Umfang durch KI-Systeme beeinflusst werden, kann dies Auswirkungen darauf haben, wie gesellschaftliche Trends interpretiert und Entscheidungen getroffen werden. (dhr)

Jugendliche verschickten KI-Deepnudes von Mitschülerinnen

Video: watson/sabethvela
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Warum der KI-Boom böse enden könnte
1 / 9
Warum der KI-Boom böse enden könnte

Er gehört zu den Hauptverantwortlichen für den aktuellen KI-Boom: OpenAI-Chef Sam Altman. Doch die immensen KI-Investitionen der Techkonzerne bergen gewaltige Risiken. Es häufen sich Anzeichen, dass Erwartungen und Realität auseinanderdriften.

quelle: keystone / mark schiefelbein
Auf Facebook teilenAuf X teilen
KI-Künstlerin mit Millionen Streams
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
19 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Die beliebtesten Kommentare
avatar
Fakten_Checker
24.02.2026 21:55registriert September 2025
Die KI manipuliert die Menschen bereits und sie wird immer intelligenter. Die Menschen werden alles tun was die KI will. Teil aus Unwissenheit benutzt zu werden, aber auch zum Teil aus Gier und Faulheit.
203
Melden
Zum Kommentar
19
Wölfe behalten natürliche Scheu auch bei viel Nähe zu Menschen
«Vorstadtwölfe» fürchten sich genauso sehr vor Menschen wie ihre Artgenossen in entlegenen Wäldern. Schon der Klang einer Stimme lässt die Tiere oft Reissaus nehmen, erklärt die Wiener Verhaltensforscherin Sarah Marshall-Pescini mit Kollegen im Fachmagazin «PNAS».
Zur Story